Command: CUDA_VISIBLE_DEVICES=1,2 python main.py --model meta-llama/Llama-2-7b-hf --prune_method ria_ours --sparsity_ratio 0.5 --sparsity_type 2:4 --reallocation --save --min_col 11
Last Line: wikitext perplexity 10.792579650878906
---------------------------
Command: CUDA_VISIBLE_DEVICES=1,2 python main.py --model meta-llama/Llama-2-7b-hf --prune_method ria_ours --sparsity_ratio 0.5 --sparsity_type 2:4 --reallocation --save --min_col 12
Last Line: wikitext perplexity 10.751423835754395
---------------------------
Command: CUDA_VISIBLE_DEVICES=1,2 python main.py --model meta-llama/Llama-2-7b-hf --prune_method ria_ours --sparsity_ratio 0.5 --sparsity_type 2:4 --reallocation --save --min_col 13
Last Line: wikitext perplexity 10.645855903625488
---------------------------
Command: CUDA_VISIBLE_DEVICES=1,2 python main.py --model meta-llama/Llama-2-7b-hf --prune_method ria_ours --sparsity_ratio 0.5 --sparsity_type 2:4 --reallocation --save --min_col 14
Last Line: wikitext perplexity 10.591751098632812
---------------------------
Command: CUDA_VISIBLE_DEVICES=1,2 python main.py --model meta-llama/Llama-2-7b-hf --prune_method ria_ours --sparsity_ratio 0.5 --sparsity_type 2:4 --reallocation --save --min_col 15
Last Line: wikitext perplexity 10.272440910339355
---------------------------
Command: CUDA_VISIBLE_DEVICES=1,2 python main.py --model meta-llama/Llama-2-7b-hf --prune_method ria_ours --sparsity_ratio 0.5 --sparsity_type 2:4 --reallocation --save --min_col 16
Last Line: wikitext perplexity 10.812403678894043
---------------------------
Command: CUDA_VISIBLE_DEVICES=1,2 python main.py --model meta-llama/Llama-2-7b-hf --prune_method ria_ours --sparsity_ratio 0.5 --sparsity_type 2:4 --reallocation --save --min_col 17
Last Line: wikitext perplexity 10.73130989074707
---------------------------
Command: CUDA_VISIBLE_DEVICES=1,2 python main.py --model meta-llama/Llama-2-7b-hf --prune_method ria_ours --sparsity_ratio 0.5 --sparsity_type 2:4 --reallocation --save --min_col 18
Last Line: wikitext perplexity 10.642234802246094
---------------------------
Command: CUDA_VISIBLE_DEVICES=1,2 python main.py --model meta-llama/Llama-2-7b-hf --prune_method ria_ours --sparsity_ratio 0.5 --sparsity_type 2:4 --reallocation --save --min_col 19
Last Line: wikitext perplexity 10.549797058105469
---------------------------
Command: CUDA_VISIBLE_DEVICES=1,2 python main.py --model meta-llama/Llama-2-7b-hf --prune_method ria_ours --sparsity_ratio 0.5 --sparsity_type 2:4 --reallocation --save --min_col 20
Last Line: wikitext perplexity 10.72253704071045
---------------------------
